- Blocaj în negocierile pentru formarea noului guvern
- La 35 de ani de la Revoluție, dosarul crimelor din acele zile zace în justiție
- Klaus Iohannis, de Ziua Victoriei Revoluției – „România este într-un moment de cumpănă"
- Elenei Lasconi: „România trebuie să se desprindă de un sistem corupt și să aleagă drumul drept”
- Atac tragic la târgul de Crăciun din Magdeburg
Poate inteligența artificială să aibă bun-simț?
Getting your Trinity Audio player ready...
|
Odată cu apariția modelelor mari de limbaj (Large Language Models – LLMs), precum cele din spatele ChatGPT, s-a redeschis dezbaterea privind limitele inteligenței artificiale și necesitatea unor noi standarde pentru evaluarea raționamentului. Deși aceste modele au fost lansate public de mai puțin de doi ani, ele au adus progrese remarcabile în domeniul inteligenței de mașină și au stârnit speculații conform cărora ar putea fi un pas important către inteligența generală artificială (Artificial General Intelligence – AGI), care reflectă o gamă largă de abilități umane.
Ce este bunul-simț în contextul inteligenței artificiale?
Pentru oameni, bunul-simț se referă la lucruri „evidente” despre viața de zi cu zi. De exemplu, știm că obiectele din sticlă sunt fragile sau că nu este politicos să servești carne unui prieten vegan. În schimb, modelele actuale de inteligență artificială întâmpină dificultăți în astfel de situații. Deși LLM-urile pot excela în teste care necesită memorare, cum ar fi examenele de licență pentru avocați sau medici din SUA, ele se pot încurca în fața unor probleme aparent simple, cum ar fi deducerea unei stări emoționale pe baza contextului unei întrebări.
Testele actuale pentru evaluarea bunului-simț al acestor modele constau, în mare parte, în întrebări cu răspunsuri multiple, similare cu testele SAT pentru admiterea la universitățile din SUA. Cu toate acestea, aceste întrebări nu reflectă în mod adecvat realitatea complexă, inclusiv înțelegerea intuitivă pe care oamenii o au despre legile fizicii sau despre interacțiunile sociale.
Provocările în măsurarea bunului-simț al inteligenței artificiale
Un aspect esențial pentru a înțelege cât de aproape sunt LLM-urile de comportamentul uman este capacitatea de a gestiona situațiile incerte și ambigue. Oamenii pot oferi răspunsuri satisfăcătoare fără a analiza toate detaliile, cum ar fi alegerea unui tip de cereale la supermarket fără a compara toate opțiunile disponibile. O întrebare importantă este dacă și cum vor putea mașinile să dobândească această abilitate de a se adapta și de a planifica în fața situațiilor complexe.
Pentru a aborda aceste întrebări, cercetătorii în domeniul inteligenței artificiale trebuie să colaboreze cu domenii precum psihologia dezvoltării și filosofia minții, pentru a înțelege mai bine fundamentele cogniției. De asemenea, este necesar să se elaboreze metode de evaluare mai bune pentru a măsura performanța LLM-urilor în ceea ce privește raționamentul.
Progrese și provocări în construirea bunului-simț artificial
Cercetările în domeniul bunului-simț al mașinilor au început în 1956, când un grup de cercetători s-a întâlnit în cadrul unui atelier de lucru în Dartmouth, New Hampshire. În deceniile următoare, au fost dezvoltate cadre simbolice bazate pe logică pentru a structura cunoștințele de bun-simț despre timp, evenimente și lumea fizică. De exemplu, proiecte precum CYC și ConceptNet au încercat să creeze baze de date de cunoștințe structurate care să permită mașinilor să învețe și să deducă informații noi pe baza celor deja cunoscute.
Cu toate acestea, astfel de abordări nu au reușit să simuleze pe deplin raționamentul uman. Bunul-simț implică atât cunoștințe factuale, cât și capacitatea de a raționa cu aceste cunoștințe pentru a lua decizii în situații noi sau incerte. Memorizarea unui set mare de informații nu este suficientă; la fel de importantă este capacitatea de a deduce informații noi.
Următorii pași în dezvoltarea bunului-simț al inteligenței artificiale
Pentru a putea studia sistematic bunul-simț artificial, sunt necesare mai multe direcții de acțiune:
- Extinderea colaborării: Integrarea principiilor din științele cognitive și psihologie în proiectarea sistemelor de inteligență artificială.
- Dezvoltarea de teste riguroase: Crearea unor teste care să reflecte diverse abilități de raționament, inclusiv înțelegerea interacțiunilor sociale și a relațiilor cauză-efect.
- Dezvoltarea inteligenței fizice: O inteligență artificială capabilă de raționament de bun-simț trebuie să fie capabilă să navigheze în medii complexe din lumea reală.
Deși s-au înregistrat progrese în toate aceste direcții, drumul către obținerea unei inteligențe artificiale cu adevărat capabile să demonstreze bun-simț este încă lung. Pe măsură ce sistemele AI, în special LLM-urile, devin tot mai prezente în diverse domenii, înțelegerea acestui aspect al raționamentului uman va contribui la rezultate mai de încredere în domenii precum sănătatea, justiția, serviciile pentru clienți și conducerea autonomă.
Partajează asta:
- Dă clic pentru a partaja pe Twitter(Se deschide într-o fereastră nouă)
- Dă clic pentru a partaja pe Facebook(Se deschide într-o fereastră nouă)
- Dă clic pentru partajare pe WhatsApp(Se deschide într-o fereastră nouă)
- Dă clic pentru a trimite o legătură prin email unui prieten(Se deschide într-o fereastră nouă)
- Dă clic pentru a partaja pe LinkedIn(Se deschide într-o fereastră nouă)
- Dă clic pentru a imprima(Se deschide într-o fereastră nouă)